AI 快讯列表关于 TPU 8t
| 时间 | 详情 |
|---|---|
|
2026-04-23 20:00 |
Google TPU 8t 重磅升级:单舱121 Exaflops,FP4吞吐较Ironwood提升3倍
据 Jeff Dean 在X平台发布的信息,Google 推出面向大规模训练与推理的 TPU 8t,单个Pod扩展至9600颗芯片,提供约121 Exaflops 的FP4性能,较Ironwood的每Pod 42.5 Exaflops 提升约3倍。根据 Jeff Dean 的说明,聚焦FP4吞吐意味着更低的推理成本与更快的训练速度,适用于超大规模LLM与多模态模型。正如 Jeff Dean 报道所述,此次Pod级扩展将提升数据中心密度与资源利用率,为Google Cloud 客户在模型服务、批量推理与规模化微调等场景带来新的商业机会。 |
|
2026-04-22 15:57 |
谷歌发布 TPU 8t 训练版与 TPU 8i 推理版:最新深度分析与业务机遇
根据桑达尔·皮查伊在推特上的信息,谷歌推出 TPU 8t(训练优化)与 TPU 8i(推理优化),体现出面向不同AI负载的加速器分工。据皮查伊所述,8t侧重高吞吐训练,8i面向低时延、成本效率更高的在线推理,这意味着在大模型训练与上线推理的硅层面实现差异化路径。依据该推文,此举将帮助企业按负载阶段匹配硬件以降低总体拥有成本,并加速生成式AI落地。根据该来源,MLOps团队可在8t上训练、在8i上部署,模型服务商与SaaS平台可通过负载感知的调度与弹性扩缩提升SLA与利润率。 |